((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Courtney Rozen et Jody Godoy
L'administration Trump a annoncé mardi avoir élargi un programme visant à donner aux scientifiques du gouvernement américain accès à des modèles d'intelligence artificielle non commercialisés afin de mener des évaluations des risques, pour y inclure DeepMind de Google, xAI et Microsoft.
OpenAI, le créateur de ChatGPT, et Anthropic, propriétaire de Claude, collaboraient déjà de leur propre initiative avec le Centre américain pour les normes et l'innovation en matière d'IA, l'équipe de scientifiques du gouvernement américain, afin de tester la vulnérabilité de modèles non commercialisés, selon les entreprises.
Voici ce que nous savons sur ces évaluations:
QUELS SONT LES RISQUES SUR LESQUELS SE CONCENTRENT LES ÉTATS-UNIS?
Les scientifiques du gouvernement américain se concentrent sur les "risques démontrables", tels que le risque que des modèles avancés puissent être utilisés pour lancer des cyberattaques contre les infrastructures américaines, selon le site web du CAISI. Ils souhaitent limiter les possibilités pour les adversaires des États-Unis d'utiliser l'IA pour développer des armes chimiques ou biologiques, ou de corrompre les données utilisées pour entraîner les modèles d'IA américains.
QU'EST-CE QUE LES ENTREPRISES VONT FOURNIR?
OpenAI collabore avec le groupe pour tester GPT-5.5-Cyber, a déclaré mardi Chris Lehane, responsable des affaires internationales chez OpenAI, dans un message publié sur LinkedIn . GPT-5.5-Cyber est une variante de son dernier modèle conçue pour des missions défensives en matière de cybersécurité.
Microsoft MSFT.O collaborera avec les scientifiques pour créer des ensembles de données et des flux de travail partagés afin d'évaluer des modèles d'IA avancés, a indiqué la société dans un communiqué. Microsoft n'a pas précisé de quels modèles il s'agissait.
Anthropic a donné au CAISI accès à des modèles à la fois accessibles au public et non publiés, permettant ainsi aux chercheurs de rechercher des vulnérabilités dans le cadre d’un processus appelé "red-teaming", qui consiste à simuler le comportement d’acteurs malveillants, a déclaré la société en septembre. La société a également fourni au CAISI une documentation détaillée sur les vulnérabilités connues et les mécanismes de sécurité.
Google DeepMind, la branche de recherche en IA d’Alphabet
GOOGL.O , donnera accès à ses "modèles propriétaires" et à ses données, a déclaré un porte-parole.
xAI n'a pas immédiatement répondu à une demande de commentaires de Reuters.
QU'ONT DÉCOUVERT LES ÉTATS-UNIS JUSQU'À PRÉSENT?
La collaboration d'Anthropic avec CAISI a révélé que des astuces telles que prétendre qu'une vérification humaine avait eu lieu ou substituer des caractères pouvaient contourner les mécanismes de sécurité, a déclaré la société, ajoutant qu'elle avait corrigé ces vulnérabilités.
OpenAI a déclaré en septembre avoir collaboré avec CAISI pour examiner les vulnérabilités de son agent ChatGPT qui auraient pu permettre à des acteurs sophistiqués de contourner les mesures de cybersécurité d’OpenAI. Cette faille aurait permis à l’attaquant de "contrôler à distance les systèmes informatiques auxquels l’agent pouvait accéder pour cette session et d’usurper avec succès l’identité de l’utilisateur sur d’autres sites web auxquels il s’était connecté", a déclaré la société. Ces entreprises, ainsi que Meta, Amazon AMZN.O et Inflection AI, ont conclu en 2023 un accord qui permet à des experts indépendants d'évaluer leurs modèles en matière de risques liés à la biosécurité et à la cybersécurité.
Les scientifiques du gouvernement américain, regroupés sous un autre nom sous le mandat de l'ancien président américain Joe Biden, ont également publié des lignes directrices volontaires visant à protéger contre le risque que des modèles d'IA divulguent des informations de santé privées ou fournissent des réponses erronées.
Selon leur site web, les scientifiques travaillent actuellement à l'élaboration de lignes directrices destinées aux fournisseurs d'infrastructures critiques, tels que les secteurs des communications et des services d'urgence, afin de tester leurs systèmes d'IA.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer